روبات های قاتل، اراده آزاد و توهم کنترل
کنترل. همه ما دوست داریم فکر کنیم آن را داریم، اما آیا همه این ها فقط یک توهم است؟ این ممکن است سؤالی بسیار هستی شناسانه به نظر برسد، اما نقش مهمی در پذیرش فناوری های جدید ما دارد، به ویژه هنگامی که صحبت از روبات ها می شود.
ما نمی دانیم که آیا اتومبیل ها همان طور که باید رفتار می کنند یا کاری کاملاً غیر قابل پیش بینی انجام می دهند.حتی اگر ما شخصاً چیزی را تحت کنترل نداریم، اغلب دوست داریم به خود تسلی دهیم که شخص دیگری آن را تحت کنترل دارد. انسان ها دارای اراده و همدلی آزاد هستند و ما اطمینان داریم که اگر اتفاق بدی بیفتد، انتخاب "صحیح" را انجام خواهیم داد.
مشکل این است که انسان ها غیر قابل پیش بینی هستند. 7.6 میلیارد نفر در کره زمین زندگی می کنند. هر فرد دارای کد اخلاقی و اخلاقیات خاص خود است، و یک عمر تجربیات مختلف که عملکردهای او را شکل می دهند و هر یک دارای ساختار روان شناختی منحصر به فردی است که نحوه واکنش او به یک رویداد استرس زا را مشخص می کند.
وقتی در آزمون تئوری رانندگی شرکت می کنید، در مورد مسأله تراموا از شما سؤالی نمی شود. این مسأله یک آزمایش فکری معروف است که می تواند به شرح زیر سازوار شود: شما در حال رانندگی با اتومبیل هستید و کودکی می دود می آید مقابل شما، و بیش از آن به شما نزدیک است که شما بتوانید قبل از آن که به او بزنید توقف کنید. اگر برای اجتناب از زدن به او به چپ بپیچید، به عابران پیاده برخورد می کنید و اگر به راست بپیچید، با ترافیک مقابل برخورد می کنید که باعث مرگ خودتان و راننده ماشین دیگر می شوید. چه کار می کنید؟
اولین قدم این است که تا جایی که می توانید ترمز کنید. سپس باید یکی از سه گزینه فوق الذکر را انتخاب می کنید. هیچ پاسخ صحیحی وجود ندارد اما شما ناخودآگاه تصمیم می گیرید که کدام را انتخاب کنید. برای توجیه تصمیم خود ممکن است شرایط زیادی را در نظر بگیرید. البته بعید به نظر می رسد که شما به طور کامل اذعان کنید که چه عواملی را در نظر گرفته اید. همه موافق خواهند بود که شما در موقعیتی غیر ممکن قرار گرفته بودید.
ما دیگر از پاسخ های دستیارهای شخصی مصنوعی مانند Siri آیفون تعجب نمی کنیم. اما چندین نوع از این نوع چت بات ها را کنار هم قرار دهید و آن ها به سرعت می توانند به شیوه هایی شگفت انگیز، به مجادله با هم و حتی توهین به یک دیگر بپردازند.
تصمیمات غیر ممکن و پاسخ گویی
اما اکنون سناریو را کمی تغییر دهید. شما در یک اتومبیل خود ران هستید و همین اتفاق رخ می دهد. خود رو تا آن جا که می تواند ترمز می کند، اما چه کسی تصمیم گرفته است که از بین سه گزینه مورد نظر کدام انتخاب شود؟ برخلاف شما، این تصمیم و ورودی های حسی مورد استفاده در تصمیم گیری آن قابل رد یابی است. ممکن است سطح پاسخ گویی بسیار بالاتری وجود داشته باشد. این نوع سناریوها را می توان هزاران بار شبیه سازی کرد و نتایج را پیش بینی و تأیید کرد. یک انسان نتایج را در آن برنامه ریزی کرده است، اما این یک شخص نیست که این کار را انجام می دهد - اجماعی در طیفی علمی، سیاسی و اجتماعی در این رابطه ایجاد شده است.
تاریخ نشان داده است که وقتی کنترل انسانی با کنترل خودکار جایگزین می شود، ایمنی افزایش می یابد و تعداد تصادفات کاهش می یابد - خواه آسانسورها در اوایل قرن 20 یا هواپیماها در اواخر قرن 20 باشد. حمل و نقل خودکار به احتمال زیاد مزایای مشابهی دارد.
روبات های ویکی پدیا بر اساس قوانین و قراردادهای تثبیت شده کار می کنند، اما از آن جا که وب سایت ویکی پدیا دارای سیستم مدیریت مرکزی نیست، هماهنگی مؤثری بین افرادی که روبات های مختلف را اجرا می کنند وجود ندارد.
روبات های قاتل
اما یک حوزه وجود دارد که ترس از واگذاری کنترل می تواند تأثیرات عمیقی داشته باشد، آن قدر جدی که سازمان ملل شروع به بحث درباره این موضوع کرده است - روبات های قاتل. در حالی که اتوماسیون تقریباً در همه مراحل زندگی مخالفان خود را داشته است، در نهایت بحث های موجهی در مجامع عمومی صورت گرفته است تا مزایای احتمالی برجسته شود، اما نه از زمانی که لودایت های انقلاب صنعتی (Luddites) (یعنی مخالفین نو آوری و صنعتی شدن) موضوعی را ایجاد کرده اند که هیجان و احساس گرایی زیادی را ایجاد کرده است.
برخی حتی استدلال می کنند که با محدود کردن تحقیقات هوش مصنوعی در این زمینه، می توانیم از وقوع یک آینده آوارشهر یا ناکجا آباد جلوگیری کنیم، مانند آن چه در ویدیوی پرشور "Slaughterbots" پیش بینی شده است. جنگ و خشونت موضوعاتی احساسی هستند، اما ساده لوحانه است اگر فکر کنیم که بشر هرگز از شر آنها خلاص خواهد شد. بحث در مورد استفاده از روبات ها در جنگ بسیار پیچیده است، اما در نهایت همه چیز به موضوع کنترل می رسد.
بزرگ ترین ترس در مورد تسلیحات خود گردان این است که هر کسی بتواند از آن استفاده کند. تنها چیزی که نیاز دارید یک روبات ارزان قیمت (شاید حتی یک هواپیمای بدون سرنشین اسباب بازی)، یک دوربین و چند کد از اینترنت است و شما یک روبات خود گردان قاتل خواهید داشت. حتی لازم نیست اسلحه ای به آن متصل شده باشد - یک کواد کوپتر با سنگی که روی آن بسته شده است و از آسمان روی سر شما می افتد شما را به راحتیِ یک ماده منفجره می کشد. یک میله فلزی را به یکی ببندید و آن را به داخل موتور هواپیما پرواز دهید تا بتوانید هواپیما را ساقط کنید.
یک روبات قاتل به پردازش تصویر، تشخیص چهره و قابلیت تعیین موقعیت مکانی نیاز دارد. این ها تقریباً در همه جنبه های زندگی ما جا سازی شده اند. برای باز کردن قفل لپ تاپ خود می توانید از قابلیت تشخیص چهره استفاده کنید، و هر کسی در گوشی اش قابلیت ناوبری وابسته به اطلاعات دریافتی از ماهواره ها را دارد، بنابراین توقف تحقیقات در مورد آن به سادگی امکان پذیر نیست. استفاده از روبات های تلفن همراه در زندگی روزمره رواج بیشتری یافته است، بنابراین بعید است پیشرفت آنها متوقف شود.
عناصر فردی که سیستم های پیچیده ای را تشکیل می دهند، مانند بازارهای اقتصادی یا آب و هوای جهانی، تمایل ندارند که به یک صورت خطیِ ساده با هم تعامل داشته باشند.
تصویر: نگاره مفهومی هواپیمای بدون سرنشین "قاتل". Shutterstock/leolintang
برخی از مردم می ترسند که این روبات ها سرانجام حتی تصمیم بگیرند چه کسی آنها (یعنی مردم) را بکشد. اما جامعه با این واقعیت فاصله زیادی دارد. بله، ممکن است کشتن یک نفر آسان تر از استخدام یک قاتل حرفه ای باشد، اما برای کشتن کسی نیازی به فناوری پیشرفته ندارید. هیچ کس امسال خواستار ممنوعیت استفاده از خودروها به دلیل استفاده از آنها به عنوان سلاح های ترور در سال گذشته نشده است زیرا مزایای آن ها بسیار بیشتر از خطرات آن ها است.
بنابراین وقتی در خیابان قدم می زنید، از خود بپرسید آیا واقعاً کنترل زندگی خود را در دست دارید؟ آیا ما قبلاً کنترل را واگذار نکرده ایم؟ آیا هر زمان که سوار تاکسی یا هواپیما یا اتوبوس می شویم این کار را نمی کنیم؟ توهم کنترل در همه جنبه های جهان وجود دارد. اما اگر به نظر رسد انسان دیگری تحت کنترل است، به نظر می رسد مردم خوشحال می شوند که به او شک و تردید هدیه دهند.
تحقیقات در مورد سیستم های پیچیده نشان می دهد که چگونه رفتاری می تواند ظهور کند که بسیار غیر قابل پیش بینی تر از مجموع اقدامات فردی باشد. واقعیت این است که ماشین ها بسیار قابل اعتمادتر و پاسخ گوتر از انسان ها هستند. شاید زمان آن فرا رسیده باشد که جامعه توهم را ببیند و تصمیمی عملی را اتخاذ کند - کنترل را کنار بگذارید و اجازه دهید ماشین ها و روبات ها آن چه را که برای انجام آن طراحی شده اند انجام دهند.
غیر قابل پیش بینی
تصویر: چه کسی می توانست پیش بینی کند که این گونه به پایان می رسد؟ Shutterstock
سران بیش از 100 شرکت برتر هوش مصنوعی جهان از توسعه "روبات های قاتل" بسیار نگران هستند. در یک نامه سرگشاده به سازمان ملل متحد، این رهبران تجاری - از جمله ایلان ماسک تسلا و بنیان گذاران شرکت هوش مصنوعی DeepMind گوگل - هشدار دادند که فناوری سلاح های خود گردان می تواند توسط تروریست ها و مستبدین مورد سوء استفاده قرار گرفته یا هک شود تا به شیوه های نامطلوب عمل کند.
ماشین ها بسیار قابل اعتمادتر و پاسخ گوتر از انسان ها هستند. اما تهدید واقعی بسیار بزرگ تر است - و این تهدید نه فقط از سوء رفتار انسان بلکه از خود ماشین ها ناشی می شود. تحقیقات در مورد سیستم های پیچیده نشان می دهد که چگونه رفتاری می تواند ظهور کند که بسیار غیر قابل پیش بینی تر از مجموع اقدامات فردی باشد. در یک سطح، این بدان معناست که جوامع بشری می توانند رفتارهایی متفاوت با آن چه شما فقط با نگاه به رفتارهای فردی انتظار دارید، داشته باشند. اما این می تواند در مورد فناوری نیز کاربرد داشته باشد. حتی اکوسیستم های متشکل از برنامه های نسبتاً ساده هوش مصنوعی – آن چه ما آنها را روبات های ساده لوح و خوب می نامیم - می تواند ما را شگفت زده کند، حتی در زمانی که روبات های فردی به خوبی رفتار می کنند.
عناصر فردی که سیستم های پیچیده ای را تشکیل می دهند، مانند بازارهای اقتصادی یا آب و هوای جهانی، تمایل ندارند که به یک صورت خطیِ ساده با هم تعامل داشته باشند. این امر باعث می شود مدل سازی و درک این سیستم ها بسیار مشکل باشد. به عنوان مثال، حتی پس از سال ها اقلیم شناسی، هنوز نمی توان پیش بینی آب و هوا را در دراز مدت انجام داد. این سیستم ها اغلب به تغییرات کوچک بسیار حساس هستند و می توانند حلقه های باز خورد انفجاری را تجربه کنند. همچنین دانستن وضعیت دقیق چنین سیستمی در هر زمان بسیار دشوار است. همه این موارد باعث می شود این سیستم ها به طور ذاتی غیر قابل پیش بینی باشند.
هیچ کس امسال خواستار ممنوعیت استفاده از خودروها به دلیل استفاده از آنها به عنوان سلاح های ترور در سال گذشته نشده است زیرا مزایای آن ها بسیار بیشتر از خطرات آن ها است.همه این اصول در مورد گروه های بزرگی از افراد که به شیوه خود عمل می کنند، اعم از جوامع انسانی یا گروه های روبات هوش مصنوعی، صدق می کند. من و همکارانم اخیراً یک نوع سیستم پیچیده را مطالعه کردیم که دارای روبات های خوبی بود که برای ویرایش خودکار مقاله های ویکی پدیا استفاده می شد. این روبات های مختلف توسط ویراستاران انسانی مورد اعتماد ویکی پدیا طراحی و مورد بهره برداری قرار می گیرند و نرم افزار زیر بنایی آنها دارای منبع باز است و برای همه قابل مطالعه است. به طور جداگانه، همه آنها یک هدف مشترک برای بهبود دائرة المعارف دارند. اما رفتار جمعی آنها به طرز شگفت آوری ناکار آمد به نظر می رسد.
این روبات های ویکی پدیا بر اساس قوانین و قراردادهای تثبیت شده کار می کنند، اما از آن جا که وب سایت ویکی پدیا دارای سیستم مدیریت مرکزی نیست، هماهنگی مؤثری بین افرادی که روبات های مختلف را اجرا می کنند وجود ندارد. در نتیجه، ما جفت روبات هایی را پیدا کردیم که چندین سال است ویرایش یک دیگر را لغو می کنند بدون این که کسی متوجه شود. و البته، چون این ربات ها فاقد هرگونه شناخت هستند، خودشان نیز متوجه آن نشدند.
روبات ها برای سرعت بخشیدن به روند ویرایش طراحی شده اند. اما تفاوت های جزئی در طراحی روبات ها یا بین افرادی که از آنها استفاده می کنند می تواند منجر به هدر رفت گسترده منابع در "جنگ ویرایش" مداومی می شود که با ویرایشگران انسانی خیلی سریع تر فیصله پیدا می کرد.
ما همچنین دریافتیم که روبات ها در نسخه های مختلف زبان ویکی پدیا رفتار متفاوتی دارند. قوانین تقریباً یکسان هستند، اهداف یکسان هستند، فناوری مشابه است، اما در ویکی پدیای آلمانی، همکاری بین روبات ها در مقایسه با ویکی پدیا پرتغالی بسیار کارآمدتر و پربارتر است. این را تنها می توان با تفاوت ویرایشگرهای انسانی که این روبات ها را در محیط های مختلف اجرا می کنند توضیح داد.
یک روبات قاتل به پردازش تصویر، تشخیص چهره و قابلیت تعیین موقعیت مکانی نیاز دارد. این ها تقریباً در همه جنبه های زندگی ما جا سازی شده اند.
سردرگمیِ نمایی
روبات های ویکی پدیا دارای استقلال بسیار کمی هستند و سیستم در حال حاضر بسیار متفاوت از اهداف هر روبات عمل می کند. اما بنیاد ویکی مدیا در حال برنامه ریزی برای استفاده از هوش مصنوعی ای است که به روبات ها خود گردانی بیشتری می بخشد. این احتمالاً منجر به رفتارهای غیر منتظره تری خواهد شد.
مثال دیگر این است که چه اتفاقی می افتد زمانی که دو روبات طراحی شده برای صحبت با انسان ها، با یک دیگر تعامل داشته باشند. ما دیگر از پاسخ های دستیارهای شخصی مصنوعی مانند Siri آیفون تعجب نمی کنیم. اما چندین نوع از این نوع چت بات ها را کنار هم قرار دهید و آن ها به سرعت می توانند به شیوه هایی شگفت انگیز، به مجادله با هم و حتی توهین به یک دیگر بپردازند.
هرچه سیستم بزرگ تر شود و هر روبات مستقل تر باشد، رفتارهای آینده سیستم پیچیده تر و غیر قابل پیش بینی تر خواهد بود. ویکی پدیا نمونه ای از تعداد زیادی روبات نسبتاً ساده است. مثال چت بات ها تعداد کمی از روبات های بسیار پیچیده و خلاق است - در هر دو مورد درگیری های غیر منتظره به وجود آمد. با افزودن افراد بیشتر و بیشتر به سیستم، پیچیدگی و بنابراین غیرقابل پیش بینی بودن به صورت تصاعدی افزایش می یابد. بنابراین در سیستم آینده با تعداد زیادی روبات بسیار پیچیده، وجود رفتار غیر منتظره می تواند فراتر از تصور ما باشد.
یک حوزه وجود دارد که ترس از واگذاری کنترل می تواند تأثیرات عمیقی داشته باشد، آن قدر جدی که سازمان ملل شروع به بحث درباره این موضوع کرده است - روبات های قاتل.
جنون خودرانی
به عنوان مثال، خودروهای خودران نوید پیشرفت های هیجان انگیز در کارآیی و ایمنی سفرهای جاده ای را می دهند. اما ما هنوز نمی دانیم که آیا یک سیستم بزرگ و وحشی متشکل از وسایل نقلیه کاملاً خود ران در اختیار ما قرار خواهد گرفت. آنها ممکن است در مقایسه با مجموعه کوچکی از خودروهای شخصی در محیطی کنترل شده رفتار بسیار متفاوتی داشته باشند. و حتی وقتی خود روهای بدون راننده که توسط افراد مختلف در محیط های مختلف آموزش دیده اند، با یک دیگر تعامل داشته باشند، ممکن است رفتارهای غیر منتظره تری رخ دهد.
انسان ها می توانند نسبتاً سریع خود را با قوانین و قراردادهای جدید تطبیق دهند، اما همچنان می توانند در سویچ بین سیستم ها مشکل داشته باشند. این می تواند برای عوامل مصنوعی بسیار دشوارتر باشد. به عنوان مثال، اگر یک ماشین "آموزش دیده توسط آلمانی ها" در ایتالیا رانندگی کند، ما نمی دانیم که چگونه با قوانین مکتوب و قراردادهای نانوشته فرهنگی که توسط بسیاری از اتومبیل های "آموزش داده شده توسط ایتالیایی ها" دنبال می شود، برخورد خواهد کرد. اتفاقی عادی مانند عبور از یک تقاطع می تواند خطرناک باشد زیرا ما نمی دانیم که آیا اتومبیل ها همان طور که باید رفتار می کنند یا کاری کاملاً غیر قابل پیش بینی انجام می دهند.
حالا به روبات های قاتل فکر کنید که ایلان ماسک و همکارانش نگران آن ها هستند. یک روبات تک قاتل در دستانی اشتباهی می تواند بسیار خطرناک باشد. اما سیستم غیر قابل پیش بینی روبات های قاتل چطور؟ من حتی نمی خواهم به آن فکر کنم.
برخی حتی استدلال می کنند که با محدود کردن تحقیقات هوش مصنوعی در این زمینه، می توانیم از وقوع یک آینده آوارشهر یا ناکجا آباد جلوگیری کنیم.
منبع: سیمون واتسون، University of Manchester، طاها یاسری، University of Oxford
{{Fullname}} {{Creationdate}}
{{Body}}